新生儿重症监护病房(NICU)中的早产婴儿必须不断监测其心脏健康。常规的监测方法是基于接触的,使新生儿容易受到各种医院感染。基于视频的监视方法为非接触式测量开辟了潜在的途径。这项工作提供了一条管道,用于远程对NICU设置视频的心肺信号进行远程估算。我们提出了一个端到端深度学习(DL)模型,该模型集成了一种基于基于学习的方法来生成替代地面真理(SGT)标签以进行监督,从而避免了直接依赖对真实地面真相标签的依赖。我们进行了扩展的定性和定量分析,以检查我们提出的基于DL的管道的功效,并在估计的心率中达到了总平均平均绝对误差为4.6 BEATS(BPM)(BPM)和均方根均方根误差为6.2 bpm。
translated by 谷歌翻译
深度学习网络在快速磁共振成像(MRI)重建中显示出令人鼓舞的结果。在我们的工作中,我们开发了深层网络,以进一步提高重建的定量和感知质量。首先,我们提出了Reconsynergynet(RSN),该网络结合了在图像和傅立叶域上独立运行的互补益处。对于单线采集,我们引入了深层级联RSN(DC-RSN),这是一个与数据保真度(DF)单位交织在一起的RSN块的级联。其次,我们通过协助T1加权成像(T1WI)的帮助,这是T2加权成像(T2WI)的DC-RSN的结构恢复,这是一个短时间采集时间的序列。通过日志功能(高尔夫)融合的梯度为DC-RSN提供T1援助。此外,我们建议感知改进网络(PRN)来完善重建以获得更好的视觉信息保真度(VIF),这是一种与放射科医生对图像质量高度相关的指标。最后,对于多线圈采集,我们提出了可变拆分RSN(VS-RSN),深层块,每个块,包含RSN,多圈DF单元和加权平均模块。我们广泛验证了单线和多线圈采集的模型DC-RSN和VS-RSN,并报告最先进的性能。我们在FastMRI中获得了0.768、0.923、0.878的SSIM,单线圈-4X,多螺旋-4X和多型圈-8X的SSIM为0.878。我们还进行了实验,以证明基于高尔夫的T1援助和PRN的功效。
translated by 谷歌翻译
基于卷积神经网络的MR重建方法已经显示出提供快速和高质量的重建。具有基于CNN的模型的主要缺点是它缺乏灵活性,并且可以仅针对特定采集上下文限制实际适用性有效运行。通过获取上下文,我们的意思是三个输入设置的特定组合,即所认为的三种输入,在研究中的解剖学,欠采样掩模图案和欠采样的加速度。该模型可以在组合多个上下文的图像上共同培训。然而,该模型不符合上下文特定模型的性能,也不符合在火车时间内看不见的上下文。这需要在生成上下文特定权重时修改现有体系结构,以便将灵活性合并到多个上下文。我们提出了一个多次采集的上下文基础网络,称为MAC-Recordnet,用于MRI重建,灵活地到多个获取上下文,并更广泛地概括为在实际方案中适用性的未操作性上下文。所提出的网络具有MRI重建模块和动态重量预测(DWP)模块。 DWP模块将相应的获取上下文信息作为输入,并学习重建模块的上下文专用权重,在运行时使用上下文动态变化。我们表明,所提出的方法可以根据心脏和大脑数据集,高斯和笛卡尔欠采样模式和五个加速因子处理多个上下文。所提出的网络优于Naive联合训练的模型,并通过定量和定性地具有与上下文专用模型具有竞争力的结果。我们还通过在火车时间看不见的背景下测试了我们模型的普遍性。
translated by 谷歌翻译
Large Language Models (LLMs) have been the subject of active research, significantly advancing the field of Natural Language Processing (NLP). From BERT to BLOOM, LLMs have surpassed state-of-the-art results in various natural language tasks such as question answering, summarization, and text generation. Many ongoing efforts focus on understanding LLMs' capabilities, including their knowledge of the world, syntax, and semantics. However, extending the textual prowess of LLMs to symbolic reasoning has been slow and predominantly focused on tackling problems related to the mathematical field. In this paper, we explore the use of LLMs for automated planning - a branch of AI concerned with the realization of action sequences (plans) to achieve a goal, typically executed by intelligent agents, autonomous robots, and unmanned vehicles. We introduce Plansformer; an LLM fine-tuned on planning problems and capable of generating plans with favorable behavior in terms of correctness and length with reduced knowledge-engineering efforts. We also demonstrate the adaptability of Plansformer in solving different planning domains with varying complexities, owing to the transfer learning abilities of LLMs. For one configuration of Plansformer, we achieve ~97% valid plans, out of which ~95% are optimal for Towers of Hanoi - a puzzle-solving domain.
translated by 谷歌翻译
The number of international benchmarking competitions is steadily increasing in various fields of machine learning (ML) research and practice. So far, however, little is known about the common practice as well as bottlenecks faced by the community in tackling the research questions posed. To shed light on the status quo of algorithm development in the specific field of biomedical imaging analysis, we designed an international survey that was issued to all participants of challenges conducted in conjunction with the IEEE ISBI 2021 and MICCAI 2021 conferences (80 competitions in total). The survey covered participants' expertise and working environments, their chosen strategies, as well as algorithm characteristics. A median of 72% challenge participants took part in the survey. According to our results, knowledge exchange was the primary incentive (70%) for participation, while the reception of prize money played only a minor role (16%). While a median of 80 working hours was spent on method development, a large portion of participants stated that they did not have enough time for method development (32%). 25% perceived the infrastructure to be a bottleneck. Overall, 94% of all solutions were deep learning-based. Of these, 84% were based on standard architectures. 43% of the respondents reported that the data samples (e.g., images) were too large to be processed at once. This was most commonly addressed by patch-based training (69%), downsampling (37%), and solving 3D analysis tasks as a series of 2D tasks. K-fold cross-validation on the training set was performed by only 37% of the participants and only 50% of the participants performed ensembling based on multiple identical models (61%) or heterogeneous models (39%). 48% of the respondents applied postprocessing steps.
translated by 谷歌翻译
本文与社交网络上的在线有针对性广告有关。我们解决的主要技术任务是估计用户对的激活概率,这可以量化一个用户对购买决策的影响的影响。这是一项具有挑战性的任务,因为一个营销事件通常涉及多种产品的多种营销活动/策略。在本文中,我们提出了我们认为是第一个基于张量的在线广告上的基于张量的上下文强盗框架。该拟议的框架旨在以多模式张量的形式适应任何数量的特征向量,从而使以统一的方式捕获与用户偏好,产品和广告系列策略可能存在的异质性。为了处理张量模式的相互依赖性,我们引入了具有平均场近似值的在线变分算法。我们从经验上确认,提出的Tensorucb算法在影响基准比基准的影响最大化任务方面取得了重大改进,这归因于其捕获用户产品异质性的能力。
translated by 谷歌翻译
由于传感器的成本和可靠性高,泵的设计人员会尽可能地估算可行操作点所需的传感器数量。获得良好估计的主要挑战是可用的数据量低。使用此数量的数据,估算方法的性能不足以满足客户的要求。为了解决这个缺乏数据的问题,获取高质量数据对于获得良好的估计很重要。根据这些考虑,我们开发了一个主动学习框架,用于估计能量场中使用的模块化多泵的工作点。特别是,我们专注于电涌距离的估计。我们应用主动学习以使用最小数据集估算浪涌距离。结果报告说,主动学习也是真正应用的宝贵技术。
translated by 谷歌翻译
至于其他形式的AI,最近已经对不同用户同伙的性能差异进行了研究。在语音识别方面实现公平性的一种方法是(1)确定遭受低标准表现的说话者队列,以及(2)采取针对发现同类的公平性缓解措施。在本文中,我们使用产品规模的AI助手语音识别系统的数据报告了发现和缓解性能差异的初步发现。我们将基于地理和人口统计学信息的队列发现与一种更可扩展的方法进行比较,该方法将使用扬声器嵌入技术分组没有人类标签的说话者。为了缓解公平性,我们发现对代表性不足的队列的过度采样,以及通过其他输入变量对扬声器队列的建模,从而减少了表现和底部性能队列之间的差距,而不会降低整体识别精度。
translated by 谷歌翻译
深度学习(DL)模型为各种医学成像基准挑战提供了最先进的性能,包括脑肿瘤细分(BRATS)挑战。然而,局灶性病理多隔室分割(例如,肿瘤和病变子区)的任务特别具有挑战性,并且潜在的错误阻碍DL模型转化为临床工作流程。量化不确定形式的DL模型预测的可靠性,可以实现最不确定的地区的临床审查,从而建立信任并铺平临床翻译。最近,已经引入了许多不确定性估计方法,用于DL医学图像分割任务。开发指标评估和比较不确定性措施的表现将有助于最终用户制定更明智的决策。在本研究中,我们探索并评估在Brats 2019-2020任务期间开发的公制,以对不确定量化量化(Qu-Brats),并旨在评估和排列脑肿瘤多隔室分割的不确定性估计。该公制(1)奖励不确定性估计,对正确断言产生高置信度,以及在不正确的断言处分配低置信水平的估计数,(2)惩罚导致更高百分比的无关正确断言百分比的不确定性措施。我们进一步基准测试由14个独立参与的Qu-Brats 2020的分割不确定性,所有这些都参与了主要的Brats细分任务。总体而言,我们的研究结果证实了不确定性估计提供了分割算法的重要性和互补价值,因此突出了医学图像分析中不确定性量化的需求。我们的评估代码在HTTPS://github.com/ragmeh11/qu-brats公开提供。
translated by 谷歌翻译
边缘计算通过分散的云和地理上分布边缘节点提供延迟敏感和通信密集型应用程序的敏捷数据处理平台。由于安全问题和威胁,对边缘节点的集中控制可能是挑战。在若干安全问题中,数据完整性攻击可能导致数据和侵入边缘数据分析不一致。进一步加剧攻击使得减轻和识别根本原因挑战。因此,本文提出了数据检疫模型的新概念,以通过隔离入侵者缓解数据完整性攻击。使用隔离区的云,ad-hoc网络和计算机系统中的有效安全解决方案具有在边缘计算中采用它的动力。数据采集​​边缘节点通过维度降低识别入侵者并检定所有可疑设备。在隔离期间,拟议的概念构建了信誉分数,以确定错误识别的合法设备,并消毒其受影响的数据以重新获得数据完整性。作为初步调查,这项工作识别适当的机器学习方法,线性判别分析(LDA),用于减少维度。 LDA导致72.83%的检疫精度和0.9秒的培训时间,比其他最先进的方法有效。将来,这将由地面真理数据实施和验证。
translated by 谷歌翻译